我们考虑了具有一系列二次损耗的序列,即LQR控制的问题。我们提供了一种有效的在线算法,该算法实现了$ \ tilde {o}的最佳动态(策略)遗憾(\ text {max} \ {n^{n^{1/3} \ mathcal {tv}(m_ {1:n})^{2/3},1 \})$,其中$ \ Mathcal {tv}(m_ {1:n})$是任何Oracle序列序列的总变化,由$ M_1,...,...,...,...,...,...,...,...,...,...,...,...,...,...m_n $ - 事后选择以迎合未知的非机构性。该费率提高了$ \ tilde {o}(\ sqrt {n(\ Mathcal {tv}}(m_ {1:n})+1)} $的最佳已知费率(\ sqrt {N(\ Mathcal {tv}})$ - 理论上最佳的LQR。主要技术组件包括将LQR减少到在线线性回归,并延迟由于Foster和Simchowitz(2020)而延迟反馈,以及具有最佳$ \ tilde {o}(n^{1/3})的新的适当学习算法(N^{1/3})$动态的遗憾是``小匹配''二次损失的家庭,这可能引起独立的兴趣。
translated by 谷歌翻译
我们考虑非静止在线凸优化的框架,其中学习者寻求控制其动态遗憾,免于任意比较器序列。当损耗函数强烈凸或exy-yshave时,我们证明了强烈的自适应(SA)算法可以被视为在比较器序列的路径变化$ V_T $的路径变化中控制动态遗憾的原则方式。具体来说,我们展示了SA算法享受$ \ tilde o(\ sqrt {tv_t} \ vee \ log t)$和$ \ tilde o(\ sqrt {dtv_t} \ vee d \ log t)$动态遗憾强烈凸Exp-Trowave损失分别没有APRIORI $ v_t $。本发明进一步展示了原理方法的多功能性,在与高斯内核的界限线性预测器和在线回归的环境中进一步证明了原则方法。在一个相关的环境下,纸张的第二个组件解决了Zhdanov和Kalnishkan(2010)提出的一个开放问题,涉及与平方误差损失的在线内核回归。我们在一定处罚后悔的新下限,该遗憾地建立了在线内核Ridge回归(KRR)的近极低最低限度。我们的下限可以被视为vovk(2001)中派生的rkhs扩展,以便在有限维中在线线性回归。
translated by 谷歌翻译
The Government of Kerala had increased the frequency of supply of free food kits owing to the pandemic, however, these items were static and not indicative of the personal preferences of the consumers. This paper conducts a comparative analysis of various clustering techniques on a scaled-down version of a real-world dataset obtained through a conjoint analysis-based survey. Clustering carried out by centroid-based methods such as k means is analyzed and the results are plotted along with SVD, and finally, a conclusion is reached as to which among the two is better. Once the clusters have been formulated, commodities are also decided upon for each cluster. Also, clustering is further enhanced by reassignment, based on a specific cluster loss threshold. Thus, the most efficacious clustering technique for designing a food kit tailored to the needs of individuals is finally obtained.
translated by 谷歌翻译
We explore the use of large language models (LLMs) for zero-shot semantic parsing. Semantic parsing involves mapping natural language utterances to task-specific meaning representations. Language models are generally trained on the publicly available text and code and cannot be expected to directly generalize to domain-specific parsing tasks in a zero-shot setting. In this work, we propose ZEROTOP, a zero-shot task-oriented parsing method that decomposes a semantic parsing problem into a set of abstractive and extractive question-answering (QA) problems, enabling us to leverage the ability of LLMs to zero-shot answer reading comprehension questions. For each utterance, we prompt the LLM with questions corresponding to its top-level intent and a set of slots and use the LLM generations to construct the target meaning representation. We observe that current LLMs fail to detect unanswerable questions; and as a result, cannot handle questions corresponding to missing slots. To address this problem, we fine-tune a language model on public QA datasets using synthetic negative samples. Experimental results show that our QA-based decomposition paired with the fine-tuned LLM can correctly parse ~16% of utterances in the MTOP dataset without requiring any annotated data.
translated by 谷歌翻译
Textual entailment recognition is one of the basic natural language understanding(NLU) tasks. Understanding the meaning of sentences is a prerequisite before applying any natural language processing(NLP) techniques to automatically recognize the textual entailment. A text entails a hypothesis if and only if the true value of the hypothesis follows the text. Classical approaches generally utilize the feature value of each word from word embedding to represent the sentences. In this paper, we propose a novel approach to identifying the textual entailment relationship between text and hypothesis, thereby introducing a new semantic feature focusing on empirical threshold-based semantic text representation. We employ an element-wise Manhattan distance vector-based feature that can identify the semantic entailment relationship between the text-hypothesis pair. We carried out several experiments on a benchmark entailment classification(SICK-RTE) dataset. We train several machine learning(ML) algorithms applying both semantic and lexical features to classify the text-hypothesis pair as entailment, neutral, or contradiction. Our empirical sentence representation technique enriches the semantic information of the texts and hypotheses found to be more efficient than the classical ones. In the end, our approach significantly outperforms known methods in understanding the meaning of the sentences for the textual entailment classification task.
translated by 谷歌翻译
深度学习目前是机器学习中最重要的分支,在语音识别,计算机视觉,图像分类和医学成像分析中的应用。植物识别是可以使用图像分类通过其叶子识别植物物种的领域之一。植物学家通过亲自检查将大量时间用于识别植物物种。本文描述了一种剖析瑞典叶子和识别植物物种的颜色图像的方法。为了实现更高的准确性,该任务是在预先训练的分类器VGG-19的帮助下使用转移学习完成的。分类的四个主要过程是图像预处理,图像增强,特征提取和识别,这些过程是作为整体模型评估的一部分进行的。 VGG-19分类器通过采用预定义的隐藏层(例如卷积层,最大池层和完全连接的层)来掌握叶子的特征,并最终使用Soft-Max层为所有植物类生成特征表示。该模型获得了与瑞典叶数据集的各个方面相关的知识,其中包含15种树类,并有助于预测未知植物的适当类别,准确性为99.70%,这比以前报告的研究工作高。
translated by 谷歌翻译
为了促进开发新模型以弥合机器和人类社会情报之间的差距,最近提议的婴儿直觉基准(Arxiv:2102.11938)提供了一系列任务,旨在评估代理商的目标和行动,即使是年轻的婴儿也表现出的表现,。在这里,我们根据层次的贝叶斯心理理论(HBTOM)提出了该基准的原则性贝叶斯解决方案。通过在代理目标和处置上包括层次的先验,对我们的HBTOM模型的推断几乎可以学习代理的效率和偏好,然后可以将其用于常识性的合理性判断,以判断有关后续代理行为。这种方法在大多数基准任务上实现了几乎完美的准确性,在产生可解释的人类的推论的同时,超过了深度学习和模仿学习基准,证明了结构化贝叶斯人的人类社会认知模型的优势。
translated by 谷歌翻译
对于自动语音识别(ASR)系统而言,检测和恢复量不足(OOV)单词总是具有挑战性的。许多现有的方法着重于通过修改声学和语言模型并巧妙地集成到模型的上下文单词来对OOV单词进行建模。为了培训这样的复杂模型,我们需要大量数据,其中包括上下文单词,额外的训练时间和增加模型大小。但是,在获取ASR转录以恢复基于上下文的OOV单词之后,对后处理方法的探索并未得到太多探索。在这项工作中,我们提出了一种后处理技术,以提高基于上下文的OOV恢复的性能。我们创建了一个具有声音增强的语言模型,并在电话级上用OOV单词列表制作了子图。我们提出了两种方法来确定合适的成本函数,以根据上下文检索OOV单词。成本函数是根据语音和声学知识来定义的,用于匹配和恢复解码中的正确上下文单词。在文字级别和句子级别上都评估了提议的成本函数的有效性。评估结果表明,这种方法可以平均在多个类别中恢复50%基于上下文的OOV单词。
translated by 谷歌翻译
我们提出了一种共同校正的随机批处理方法,用于相互作用的粒子系统。通过建立特定的熵中心限制定理,我们为所提出方法的所有粒子的整个轨迹的定律提供熵收敛的保证\ alpha n)^{\ frac {1} {3}} $(其中$ n $是粒子的数量,$ \ alpha $是时间离散参数)。反过来,这意味着当$ b $甚至中等大的时候,这些方法的输出几乎是\ emph {统计上无法区分的}。先前的作品主要考虑在瓦斯恒星距离中的收敛性,对电势或边界的必要严格假设具有指数依赖性对时间范围的依赖性。这项工作使对相互作用势的假设最少,尤其是确定即使粒子轨迹差异到无穷大,它们也以两种方法的方式这样做。鉴于基于粒子的相互作用算法的最新进展,这种保证非常有用。
translated by 谷歌翻译
经验重播方法是加固学习(RL)算法的重要组成部分,旨在减轻伪造的相关性和偏见,同时从时间依赖的数据中学习。粗略地说,这些方法使我们能够从大型缓冲液中绘制批处理的数据,从而使这些时间相关性不会妨碍下降算法的性能。在这项实验工作中,我们考虑了最近开发和理论上严格的反向经验重播(RER),该重播已被证明可以消除简化的理论环境中的这种虚假偏见。我们将RER与乐观的经验重播(OER)相结合,以获得RER ++,在神经功能近似下这是稳定的。我们通过实验表明,在各种任务上的优先体验重播(PER)等技术的性能要比计算复杂性明显较小,具有更好的性能。在RL文献中众所周知,选择最大的TD误差(如OER)或形成具有连续数据点(如RER)的迷你批次而贪婪地选择示例。但是,结合这些技术的方法效果很好。
translated by 谷歌翻译